par Anna Tong
18 décembre - L'entreprise d'intelligence artificielle OpenAI a défini un cadre pour assurer la sécurité de ses modèles les plus avancés, notamment en permettant au conseil d'administration de revenir sur les décisions prises en matière de sécurité, selon un plan publié lundi sur le site web .
OpenAI, soutenue par Microsoft MSFT.O , ne déploiera ses dernières technologies que si elles sont jugées sûres dans des domaines spécifiques tels que la cybersécurité et les menaces nucléaires. L'entreprise crée également un groupe consultatif chargé d'examiner les rapports de sécurité et de les transmettre aux dirigeants et au conseil d'administration de l'entreprise. Les dirigeants prendront les décisions, mais le conseil d'administration pourra les annuler.
Depuis le lancement de ChatGPT il y a un an, les dangers potentiels de l'IA sont au cœur des préoccupations des chercheurs en IA et du grand public. La technologie de l'IA générative a ébloui les utilisateurs par sa capacité à écrire des poèmes et des essais, mais elle a également suscité des inquiétudes quant à sa capacité à diffuser de la désinformation et à manipuler les êtres humains.
En avril, un groupe de leaders et d'experts de l'industrie de l'IA a signé une lettre ouverte demandant une pause de six mois dans le développement de systèmes plus puissants que le GPT-4 d'OpenAI, en invoquant les risques potentiels pour la société. Selon un sondage Reuters/Ipsos réalisé en mai , plus des deux tiers des Américains s'inquiètent des effets négatifs possibles de l'IA et 61 % d'entre eux pensent qu'elle pourrait menacer la civilisation.

0 commentaire
Vous devez être membre pour ajouter un commentaire.
Vous êtes déjà membre ? Connectez-vous
Pas encore membre ? Devenez membre gratuitement
Signaler le commentaire
Fermer